• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 애저 API"에 대한 통합 검색 내용이 598개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아-구글 딥마인드, 대규모 언어 모델 혁신 위해 협력
엔비디아가 구글의 연례 개발자 콘퍼런스인 ‘구글 I/O 2024’에서 세 가지 새로운 협업 내용을 발표했다. 이번 협업으로 엔비디아와 구글은 세계적 수준의 성능을 갖춘 AI 기반 애플리케이션을 더 쉽게 만들 수 있도록 개발자를 지원할 예정이다. 텍스트, 이미지, 사운드와 같은 여러 유형의 데이터를 처리하는 모델이 점점 더 보편화되면서 생성형 AI를 구동하는 대규모 언어 모델(LLM)에 대한 혁신이 가속화되고 있다. 그러나 이러한 모델을 구축하고 배포하는 것은 여전히 어려운 과제다. 개발자는 모델을 빠르게 경험하고 평가해 사용 사례에 가장 적합한 모델을 결정한 다음, 비용 효율적일 뿐만 아니라 최상의 성능을 제공하는 방식으로 모델을 최적화할 수 있는 방법이 필요하다. 엔비디아는 이번 행사에서 구글이 선보인 두 가지 새로운 모델인 젬마 2(Gemma 2)와 팔리젬마(PaliGemma)를 최적화하기 위해 텐서RT-LLM(TensorRT-LLM)을 사용하고 있다. 이 두 모델은 모두 제미나이(Gemini)를 만드는 데 사용된 동일한 연구와 기술을 기반으로 구축됐으며, 각각 특정 영역에 중점을 둔다. 젬마 2는 광범위한 사용 사례를 위한 차세대 젬마 모델로, 획기적인 성능과 효율성을 위해 설계된 완전히 새로운 아키텍처가 특징이다. 팔리젬마는 PaLI-3에서 영감을 받은 개방형 시각 언어 모델(VLM)이다. 이는 SigLIP 시각 모델과 젬마 언어 모델을 포함한 개방형 구성 요소를 기반으로 구축됐으며, 이미지, 짧은 비디오 캡션, 시각적 이미지 질의응답, 이미지 내 텍스트 이해, 객체 감지나 분할과 같은 시각 언어 작업을 위해 설계됐다. 팔리젬마는 광범위한 시각 언어 작업에서 높은 수준의 미세 조정 성능을 탑재했고 엔비디아 JAX-툴박스(JAX-Toolbox)에서도 지원된다.   젬마 2와 팔리젬마는 대규모 AI 모델 배포를 간소화하는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼의 일부인 엔비디아 NIM 추론 마이크로서비스와 함께 제공될 예정이다. 새로운 두 모델에 대한 NIM 지원은 팔리젬마를 시작으로 API 카탈로그에서 사용할 수 있으며, 곧 엔비디아 NGC와 깃허브(GitHub)에서 컨테이너로 출시될 예정이다. 구글은 데이터 과학자에게 인기 있는 개발자 플랫폼 중 하나인 구글 코랩(Colab)에서 오픈 소스 GPU 데이터 프레임 라이브러리인 래피즈 cuDF(RAPIDS cuDF)가 기본으로 지원된다고 발표했다. 매월 1000만 명에 이르는 구글 코랩의 월간 사용자들은 이제 코드 변경 없이 단 몇 초 만에 엔비디아 L4 텐서 코어(Tensor Core) GPU를 사용해 판다스(pandas) 기반 파이썬(Python) 워크플로를 최대 50배까지 가속화할 수 있다. 구글 코랩을 사용하는 개발자는 래피즈 cuDF를 통해 탐색적 분석(exploratory analysis)과 생산 데이터 파이프라인의 속도를 높일 수 있다.  또한, 엔비디아와 구글은 엔비디아 RTX 그래픽을 사용해 AI PC를 활용하는 파이어베이스 젠킷(Firebase Genkit)에 대한 협업도 발표했다. 이는 개발자가 새로운 젬마 모델 제품군을 비롯한 생성형 AI 모델을 웹과 모바일 애플리케이션에 쉽게 통합해 맞춤형 콘텐츠, 시맨틱 검색(semantic search), 문의에 대한 답변을 제공할 수 있도록 지원한다. 개발자는 로컬 RTX GPU로 작업 줄기(work stream)를 시작한 다음, 작업을 구글 클라우드 인프라로 원활하게 이동할 수 있다. 개발자들은 모바일 개발자들이 주로 쓰는 프로그래밍 언어인 자바스크립트(JavaScript)를 사용하는 젠킷으로 앱을 더욱 쉽게 개발할 수 있다. 엔비디아와 구글 클라우드는 AI의 발전을 위해 다양한 분야에서 협력하고 있다고 전했다. 곧 출시될 그레이스 블랙웰(Grace Blackwell) 기반 DGX 클라우드 플랫폼과 JAX 프레임워크 지원부터 구글 쿠버네티스 엔진(Kubernetes Engine)에 엔비디아 네모(NeMo) 프레임워크 도입까지, 양사의 풀스택(full-stack) 파트너십은 사용자가 구글 클라우드에서 엔비디아 기술을 사용해 AI로 수행할 수 있는 작업의 가능성을 확장하고 있다.
작성일 : 2024-05-17
오라클, AI로 애플리케이션 개발 속도 높이는 ‘오라클 코드 어시스트’ 발표
오라클은 AI 코딩 동반 툴인 오라클 코드 어시스트(Oracle Code Assist)를 통해 애플리케이션 속도를 높이고 코드 일관성을 개선할 수 있다고 소개했다. 대규모 언어 모델(LLM)을 기반으로 오라클 클라우드 인프라스트럭처(OCI)에서 실행되며 OCI 기반 자바(JAVA), SQL 및 애플리케이션 개발에 최적화된 오라클 코드 어시스트는 개발자에게 기업의 모범 사례 및 코드베이스에 맞춤화해 맥락에 특화된 제안 기능을 제공한다. 오라클 코드 어시스트는 대부분의 모던 프로그래밍 언어로 작성된 코드를 업데이트하고 업그레이드 및 리팩터링(소프트웨어 개발 과정에서 기존 코드를 변경하지 않고 코드의 구조와 디자인을 개선하는 과정)하는 데에도 사용할 수 있도록 설계될 예정이다.     AI 기반 소프트웨어 개발은 소프트웨어의 개념화 및 생성, 테스트, 관리 방식에 혁신을 불러일으켰다. 개발자는 AI 지원 도구를 사용하면 새로운 아이디어를 탐색하고 신규, 업그레이드 또는 리팩터링된 코드를 위한 지능형 제안을 받을 수 있다. 또한 일상적인 작업을 자동화하는 기능 덕분에, AI 도구가 소프트웨어 개발 수명 주기(SDLC)의 모든 단계에서 핵심적인 부분으로 자리잡게 됐다. 오라클은 “오라클 코드 어시스트는 코드 스니펫(snippet), 종속성 분석(dependency analysis), 오류 완화 대안(error mitigation alternatives), 테스트 사례, 주석(annotation), 요약 및 문서화를 제공해 SDLC의 각 단계를 처리하여 이 기술 분야의 주된 사례로 꼽힐 것으로 기대한다”고 전했다.  이와 더불어 젯브레인 인텔리제이 IDEA(JetBrains IntelliJ IDEA), 또는 마이크로소프트 비주얼 스튜디오 코드(Microsoft Visual Studio Code)용 개발 환경 플러그인으로 배포되는 오라클 코드 어시스트는 개발자가 애플리케이션 실행 위치와 상관없이 애플리케이션을 구축, 최적화, 업그레이드하는 데 도움을 주는 전문가 의견을 반영한 피드백을 제공하도록 훈련될 계획이다. 오라클 코드 어시스트는 수년에 걸친 애플리케이션 및 소프트웨어 개발 과정에서 개발된 폭넓은 소프트웨어 저장소를 기반으로 훈련된다. 오라클은 오라클 코드 어시스트가 OCI의 서비스 API, 코딩 패턴 및 자바, SQL, OCI는 물론, 넷스위트(NetSuite)의 스위트스크립트(SuiteScript) 등을 통한 오라클의 자체 소프트웨어 개발 모범 사례를 활용해 미세 조정하여, 배포되는 소프트웨어 및 애플리케이션의 위치와 관계없이 기업 조직에 적합한 서비스를 제공할 수 있을 것으로 기대하고 있다. 오라클 코드 어시스트는 코드 생성(Code Generation), 코드 주석(Code Annotation), 코드 설명 가능성(Code Explainability), 더욱 빨라진 코드 검토(Faster Code Reviews), 테스트 커버리지 생성(Test Coverage Generation) 등의 기능을 통해 애플리케이션 개발 속도를 높일 예정이다. 또한, 오라클 코드 어시스트는 맞춤형 제안(Tailored Suggestions), 코드 생성 컨텍스트(Code Origination Context), 자동 언어 업그레이드(Automated Language Upgrades), 코드 분석(Code Analysis), OCI 최적화 제안(OCI Optimization Suggestions) 등을 통해 개발자가 코드 일관성 및 최적화를 개선하도록 돕는다: 오라클 클라우드 인프라스트럭처의 아난드 크리슈난 제품 관리 부사장은 “커스텀 애플리케이션은 전 세계 모든 기업 조직이 스스로를 차별화하기 위해 사용하는 방식이다. 하지만 애플리케이션의 구축, 배포, 유지 관리에는 노동력과 시간이 많이 든다”면서, “오라클 코드 어시스트를 활용하는 기업들은 개발자가 애플리케이션 속도 및 코드 일관성을 개선하여 애플리케이션을 안전하고 강력하며, 규정을 준수하는 방식으로 장기간 유지 관리할 수 있도록 지원할 수 있다”고 설명했다.
작성일 : 2024-05-13
오토데스크-네메첵, “건축 설계 및 건설 산업을 위한 개방형 워크플로 발전시킨다”
오토데스크는 건축, 엔지니어링, 건설 및 운영(AECO) 및 미디어 및 엔터테인먼트(M&E) 산업의 개방형 협업과 효율성 향상을 위해 네메첵 그룹과 상호운용성 계약을 체결했다고 발표했다. 이번 협약을 통해 양사는 클라우드 및 데스크톱 제품 간의 기존 상호운용성을 강화하고, 솔루션 간 원활한 정보 교환을 개선할 수 있을 것으로 기대하고 있다. 건물과 고속도로 등을 건설하거나 미디어 애셋을 제작할 때 클라우드 연결 도구로 작업하면 자동화를 강화하고 프로젝트의 모든 단계에서 더 나은 결정을 내릴 수 있는 인사이트를 얻을 수 있다. 하지만 소프트웨어와 파일의 비호환성으로 인해 사람, 프로세스, 데이터가 사일로화되어 비효율적인 워크플로를 초래하는 경우가 많다. 오토데스크와 네메첵의 워크플로를 최적화하면 하나의 클라우드 플랫폼 또는 데스크톱 애플리케이션에서 다른 애플리케이션으로 데이터를 보다 쉽게 전송할 수 있으므로 세부 정보를 적시에 적절한 사람에게 전달할 수 있게 된다. 이러한 상호운용성은 개방형 애플리케이션 프로그래밍 인터페이스(API) 및 웹 서비스 세트인 오토데스크 플랫폼 서비스(APS)를 기반으로 하며, 이를 통해 네메첵의 디트윈(dTwin), 블루빔 클라우드(Bluebeam Cloud), BIM클라우드(BIMcloud) 및 BIM플러스(BIMplus)를 오토데스크의 포마(Forma), 퓨전(Fusion) 및 플로(Flow) 등 산업용 클라우드와 설계 솔루션에 연결할 수 있게 된다. 이를 통해 고객과 파트너는 각 솔루션에서 데이터와 기능을 연결할 수 있으므로 사용자는 자동화, AI 및 인사이트를 통해 프로젝트를 최적화하는 데 집중할 수 있다.     이번 상호운용성 계약은 건축 자산 산업에서 디지털 데이터의 접근성, 유용성, 관리 및 지속 가능성을 개선하여 BIM(빌딩 정보 모델링)의 이점을 확장하는 빌딩스마트의 오픈BIM(openBIM)과 같은 통합 및 개방형 산업 표준에 대한 노력을 보여준다. 사일로 없는 에코시스템을 구축하여 협업함으로써 팀은 엔드 투 엔드 워크플로에서 동일한 디지털 모델로 작업할 수 있다. 이번 계약에 따라 오토데스크와 네메첵 그룹은 양사의 API와 산업 클라우드에 대한 상호 액세스를 제공한다. 개발자는 오토캐드, 레빗, 3ds 맥스, 마야 등 오토데스크 솔루션과 오토데스크 포마, 오토데스크 건설 클라우드에 올플랜, 아키캐드, 블루빔, 맥슨 원, 벡터웍스 등 네메첵의 관련 클라우드 플랫폼과 솔루션과 비슷하게 액세스할 수 있게 된다. 이를 통해 양사는 기존의 데이터 교환을 개선하고 분야와 산업을 아우르는 새로운 데이터 중심 워크플로를 열 수 있을 것으로 기대하고 있다. 오토데스크의 에이미 번젤(Amy Bunszel) AEC 솔루션 부문 수석 부사장은 “오토데스크는 데이터를 활용하고 프로젝트 팀을 연결하는 개방형 통합 클라우드 기반 솔루션을 구축하는 데에 전념하고 있다”면서, “오토데스크의 클라우드 및 데스크톱 솔루션에 네메첵 상호 운용성을 확장하는 것은 고객의 워크플로를 최적화하고 더 나은 프로젝트 결과를 창출하는 데 큰 도움이 될 것”이라고 전했다. 네메첵 그룹의 마크 네제(Marc Nézet) 최고 전략 책임자(CSO)는 “오픈BIM, 상호 운용성, 개방형 산업 표준을 지원하는 것은 네메첵 그룹의 DNA에 깊이 뿌리내리고 있다. 오토데스크와의 상호 운용성 계약은 고객이 모든 프로젝트 환경과 소프트웨어 에코시스템에서 작업할 수 있는 능력을 제공하여 궁극적으로 더 나은 건설 세계를 만들기 위한 행보”라고 설명했다.
작성일 : 2024-04-29
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
마이크로소프트, 국내 기업의 혁신 돕는 AI 트랜스포메이션 사례 공개
마이크로소프트가 생성형 AI 기술로 다양한 국내 산업의 고객 서비스 혁신과 비즈니스 성장을 지원하며 AI 트랜스포메이션 혁신 사례를 구축하고 있다고 소개했다. 마이크로소프트는 AI 기술이 조직 경쟁력 유지를 위한 필수적인 비즈니스 요소가 될 것으로 전망하고 있다. 마이크로소프트가 의뢰한 글로벌 시장 조사기관 IDC의 연구 결과에 따르면 조사에 참여한 응답자 71%가 이미 회사에서 AI를 사용하고 있으며, 이들은 평균적으로 1년 2개월 만에 AI 투자에 대한 수익을 실현하고 있는 것으로 나타났다. 이 연구는 전 세계 2100명 이상의 비즈니스 리더와 의사 결정권자를 대상으로 실시됐다. 마이크로소프트는 애저 오픈AI 서비스(Azure OpenAI Service)를 통해 향상된 컴플라이언스, 데이터 보안 강화, 확장성, 책임 있는 AI 등 차별화된 서비스를 제공하고 있다. 이 서비스는 전 세계 1만 8000개 이상의 조직과 포춘 500대 기업 중 절반 이상이 사용하며 전 세계 조직의 AI 트랜스포메이션 속도를 가속화하고 있다. 마이크로소프트는 국내에서도 자사의 AI 기술을 도입해 업무 프로세스를 혁신하고 새로운 비즈니스 모델 개발에 나서는 기업들이 늘고 있다고 전했다. LG전자의 H&A본부는 생성형 AI 기반 빅데이터 분석 솔루션인 찾다(CHATDA)를 도입해 고객 요구 사항을 효과적으로 파악하고 사용자 경험을 개선했다. 이 시스템은 마이크로소프트 애저 환경과 애저 오픈AI 서비스를 활용해 데이터 보안과 안정성을 강화한다. 또한, 자연어 처리 기능으로 현업의 분석 요구사항에 부합하는 데이터를 정밀하게 선별하고, 이를 기반으로 분석 코드를 자동 생성 및 실행한다. 이를 통해 법무검토, 데이터 탐색, 가공 분석에 소요되던 시간이 평균 5일에서 30분으로 단축돼 업무 효율성이 향상됐다.     AI 서비스 플랫폼 기업 뤼튼테크놀로지스는 애저 오픈AI 서비스와 프로비전드 스루풋(Provisioned Throughput : PTU)를 도입해 이전보다 두 배 이상 증가한 사용자 트래픽을 안정적으로 처리하고 있다. 이러한 운영 안정성과 지속적인 서비스 개선을 바탕으로, 뤼튼 서비스의 고객 만족도를 나타내는 NPS(Net Promoter Score) 점수가 30% 이상 향상됐다. 크래프톤의 AI 전문 스튜디오인 렐루게임즈도 애저 오픈AI 서비스를 도입해 새로운 게임 개발에 나서고 있다.  특히 오는 6월 출시를 앞둔 '언커버 더 스모킹 건'은 플레이어가 용의자와 대화하며 사건을 해결하는 추리 게임으로, 플레이어의 자유도를 높여 실제와 유사한 현실감 있는 게임 환경을 제공한다. 렐루 게임즈는 이를 구현하기 위해 대형언어모델(LLM)의 애플리케이션 프로그래밍 인터페이스(API)를 70% 이상 사용하고 있다.  배달 플랫폼 ‘배달의 민족’을 운영하는 우아한형제들은 애저 오픈AI 서비스를 활용해 고객 상황에 맞는 메뉴를 제안하는 ‘메뉴뚝딱AI’ 서비스를 선보여 고객 편의성을 높였다. 이 서비스는 고객이 작성한 리뷰를 분석해 음식 특성과 주문 성향을 파악하는 키워드를 추출하고, 시간대·식사 동반자·상황·맛 등을 고려해 안전성 검증을 거친 120종의 컨텍스트를 통해 사용자에게 맞춤형 메뉴를 추천한다. 융합 사고력 기업 크레버스는 마이크로소프트 AI 솔루션을 도입해 자동으로 과제를 평가하고 개인 맞춤형 피드백을 제공하는 시스템을 구축, 학생들의 만족도를 크게 높였다. 이 과정에서 평균 3.5일이 걸렸던 과제 채점 시간이 7초로 단축돼 실시간 피드백을 제공하고 있으며, 운영 비용도 약 85% 절감될 것으로 기대하고 있다. 반려로봇 개발기업 효돌은 AI 기반 대화형 AI 돌봄 로봇 ‘효돌 2.0’에 애저 오픈AI 및 애저 코그니티브 서비스(Azure Cognitive Services)를 도입해 음성 엔진을 개선하고 대화 기능을 고도화했다. 이를 통해 사용자와의 친밀감이 기존 대비 10% 이상 증가됐으며, 맞춤형 신경망(Custom Neural) 기반 STT/TTS 엔진을 활용해 시니어층의 우울증이나 치매 징후를 조기에 발견하고 정신 건강 상태를 진단할 수 있게 됐다. 한국마이크로소프트의 조원우 대표는 “AI 기술은 한국의 산업 전반에 긍정적인 변화를 가져오고 있다”며, “앞으로도 마이크로소프트는 가장 신뢰할 수 있는 AI 트랜스포메이션 파트너로서 국내 기업들이 AI를 통해 업무 프로세스를 혁신하고, 더 나은 고객 경험을 제공할 수 있도록 적극 지원할 것”이라고 전했다.
작성일 : 2024-04-22
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
[포커스] 모두솔루션, 지스타캐드 시장 확대 및 파트너십 강화 전략 소개
모두솔루션이 지난 3월 13일 ‘지스타캐드(GstarCAD) 파트너 콘퍼런스’를 진행했다. 지스타캐드를 국내에 판매하는 파트너사를 대상으로 한 이번 콘퍼런스에서는 지스타캐드의 비즈니스 현황과 향후 개발 계획 등이 소개됐다. ■ 정수진 편집장     대안 CAD의 퍼포먼스 향상과 생태계 구축 추진 지스타캐드는 2D CAD 시장에서 사실상의 표준으로 쓰이는 오토캐드와 호환되면서 가벼운 퍼포먼스와 저렴한 가격을 앞세운 이른바 ‘대안 CAD’ 제품 중 하나이다. 중국의 지스타소프트(Gstarsoft)가 개발하고, 국내에서는 모두솔루션이 공급한다. 지스타소프트의 루샹(Lu Xiang) CEO는 “작년 중국 상하이 증시에 상장한 이후 10억 위안(약 1800억 원) 이상의 투자를 유치했다”면서, R&D를 통한 제품 라인업 확대 및 인지도 강화를 위한 마케팅을 강화할 수 있는 기반을 마련했다고 전했다. 지스타소프트는 중국 시장에서는 직접 판매 중심으로, 해외 시장에서는 600여개의 파트너사를 통한 비즈니스를 진행한다. 해외 비즈니스 비중을 장기적으로 50%까지 늘리는 것이 목표이다. 이외에 클라우드 비즈니스도 진행한다. 1500만 명의 MAU(월간 활성 사용자)를 기록한 모바일용 CAD 뷰어를 시작으로, 최근에는 클라우드 제품인 ‘지스타캐드 365’를 개발했다. 루샹 CEO는 지스타캐드 개발의 핵심 요소로 품질, 성능, API(애플리케이션 프로그래밍 인터페이스), 신기능 등 네 가지를 꼽았다. 소프트웨어의 안정성과 함께 속도를 높여 도면 작업 시간을 줄이는 것이 가장 큰 관건이다. 또한 API를 통해 서드파티 생태계를 구축하는 동시에, 오토캐드 서드파티 툴을 지스타캐드용으로 마이그레이션하는 노력도 기울일 예정이다.    3D/클라우드/AI 등 제품 라인업 확대 루샹 CEO는 제품의 성능을 높이는 기술 개발에 집중하면서, 제품 라인업을 넓힐 계획이라고 전했다. 2D CAD에서 나아가 BIM(빌딩 정보 모델링) 시장을 겨냥한 3D CAD로 제품군을 확대하는 한편, 모바일 CAD 뷰어와 클라우드 CAD 등 신기능과 신제품을 제공하는 개발도 추진할 계획이다.  클라우드 CAD 제품인 ‘지스타캐드 365’는 한국 출시를 준비하고 있다. 클라우드에 설계 데이터를 저장함으로써 디바이스의 제약 없이 협업과 공유가 가능하다는 점을 내세운다. 2D 설계 외에 기계, BIM 등 제품군을 개발할 계획이며, 협업 기능은 구독 라이선스로 판매될 가능성이 있는 것으로 알려졌다. 루샹 CEO는 “AI에 대한 기대가 높은 상황에서 CAD에 AI를 접목하는 방법에 대해서도 연구 중이다. AI는 건축 설계 등에서 작업 시간을 줄일 수 있을 것으로 기대하고 있다”고 전했다.   ▲ 지스타소프트는 클라우드 CAD 제품군을 넓히고, 국내 시장에도 선보일 계획이다.   생태계 중심으로 국내 비즈니스 강화 계획 모두솔루션은 지난 2019년 지스타캐드 누적 판매 1만 카피를 기록한 이후, 2023년에는10만 카피를 돌파했다고 밝혔다. 국내 시장에서 선호도가 높아지고 있으며, 파트너 숫자 증가 등 파트너 비즈니스도 꾸준히 활성화되고 있다는 것이 모두솔루션의 평가이다. 지스타캐드의 한국 비즈니스에 대해서 루샹 CEO는 “한국 시장은 지난 2008년 이후 매년 40%씩 성장하면서 빠른 증가세를 보이고 있다”면서, 한국 고객에 대한 지원 조직을 확대하고, 한국 고객의 요구에 대응하기 위해 모두솔루션과의 R&D 협력을 강화할 것”이라고 밝혔다. 모두솔루션은 오토캐드 사용자의 지스타캐드 이전 지원 및 서드파티 지원 확대를 포함한 사용자 생태계 구축을 추진할 계획이다. 오토캐드용 서드파티 툴 중 하나인 ‘드림플러스’에 대응하는 ‘매직플러스’의 기능 개발을 시작해, 올 연말에는 기본 기능의 개발을 완료할 예정이다. 파트너 지원 시스템 또한 개선해 파트너 사이트 및 발주 시스템을 새롭게 구축할 계획이다. 모두솔루션의 정충구 대표이사는 “국내에서는 중견기업 시장을 중심으로 지스타캐드 고객을 늘려 왔는데, 최근에는 대기업 고객을 발굴하는 데에 힘을 기울이면서 실제 대기업 고객 확보가 이뤄지고 있다”면서, 시장 확대와 함께 서드파티 관련 개발 및 파트너십을 강화할 계획이라고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21